Parametergewinnung aus Bildeigenschaften

Vorwort

 

     << Zurück

 

·        Normalerweise: Verwendung der Intensität als Bildeigenschaft

-           Vorteil: Liefert die meisten Bildinformationen

-           Nachteil: Empfindlich bezüglich Rauschen und optischen Effekten und benötigt eine gute erste Schätzung der Kameraparameter

 

·        Hier: Verwendung einer neuen Methode

-           Bereich in dem die Kameraparameter der ersten Schätzung liegen und aus dem das Optimum dieser Parameter bestimmt werden kann, ist größer

-           Dieser Bereich nennt sich Range Of Convergence

 

Ø     Range Of Convergence:

 

§        Wird bestimmt durch die Verteilung räumlicher Frequenzen in der Textur auf der Objektoberfläche

§        Abwesenheit niedriger Frequenzen in einem Muster aus dünnen Linien führt zu einem engem Range of Convergence

§        Große einheitlich gefärbte Bereiche führen nur zu einer kleinen Anzahl von Oberflächenpunkten, die eine partielle Ableitung haben

 

 

·        Lösung:

1.   Extraktion der Kanten

2.   Anwendung einer Abstandstransformation

 

·        Voraussetzung:

 

-           Vergleichbarkeit der Eigenschaften der Bildpunkte

-           Unabhängigkeit von der Blickrichtung der einzelnen Fotos während der iterativen Optimierung

 

Ø     Keine Abstandsberechnung auf der Bildebene, sondern auf der Objektoberfläche

 

 

·        Algorithmus zur Kantenextraktion:

 

-           Extrahierung der Farbkanten mittels (3x3)-Sobel-Operator

-           Erzeugung eines Kantenbildes, das noch mit einer geeigneten Funktion f bearbeitet werden muss

 

Ø     Eigenschaften von Funktion f:

 

-           Soll Rauschen reduzieren und Unterscheidbarkeit der Kanten erhalten

-           Abbildung der Kanten auf einem Wert nahe 0 und einheitlicher Bildbereiche auf einen Wert nahe 1

-           Es wurde empirisch folgende Variante gefunden mit Wertebereich [0;1]:

 

 

Ø     Abbildung 3 zeigt die Funktion f für k=0,72

 

 

·        Definition eines Maßes basierend auf den extrahierten Kanten, zur Kombination von euklidischem Abstand zur nächsten Kante in Weltkoordinaten und Intensität dieser Kante

 

·        Algorithmus zur Abstandstransformation berechnet das Abstandsbild unter Ausnutzung des vorberechneten z-Puffers:

 

(1)Initialisierung eines Abstandsbildes für jedes Foto mit dem Kantenbild, wobei scharfe Kanten zu Werten nahe 0 führen

 

(2)Propagierung der inizierten Werte über das Bild hinweg in zwei Schritten:

·        Von der linken oberen Ecke zur rechten unteren Ecke

·        Und wieder zurück

-           Assoziierung jedes Rasterpunkts mit dem Minimum seines vorhergehenden Wertes und den Werten der vier Nachbarpunkte plus dem euklidischen Abstand d der Punkte in Weltkoordinaten

-           Auswahl der Nachbarpunkte durch eine Maske (Abbildung 4)

 

(3)Iteration von (2) bis sich kein Wert mehr ändert, falls sich die Werte bei der Iteration signifikant ändern, reicht auch eine Iteration  aus

 

·        Abbildung 4:

   

·        Abbildung 5 zeigt oben ein Beispiel mit natürlichen Texturen (Holzelefant) und unten ein Beispiel mit künstlichen Texturen (Auswertung der Zielfunktion aus Kriterium l in äquidistanten Schritten)

 

·        Abbildung 5: (links: Beispielobjekt, mittig: Kantenbild, rechts:

                         Abstandsbild)

 

 

 

·        Abbildung 6 zeigt den Fehler als Funktion des Fehlers in den drei Rotationswinkeln in Grad für die Intensität (oben) und für das Abstandsbild (unten)

 

·        Abbildung 6:

 

 

·        Insgesamt ergeben sich folgende Vorteile:

 

-           Signifikante Vergrößerung des Range Of Convergence

-           Der Einfluss optischer Effekte und der Fehler in den Bildern wird durch den Schritt der Kantenextraktion reduziert

Weiter >>     .

Einleitung

Fotore-

gistrierung

Textur-synthese

Ergebnisse

Schluss-folgerung

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Vortrag